查看原文
其他

消费级显卡玩转大模型全链路!InternLM2-1.8B正式开源

OpenMMLab
2024-11-22

The following article is from InternLM Author InternLM

为了响应社区用户极其强烈的呼声,InternLM2-1.8B 于近日正式开源!要说这呼声多强烈,有 issue 截图为证。




InternLM2-1.8B 提供了三个版本的开源模型,大家可以按需选择。


  • InternLM2-1.8B: 具有高质量和高适应灵活性的基础模型,为下游深度适应提供了良好的起点。

  • InternLM2-Chat-1.8B:通过在线 RLHF 在 InternLM2-Chat-1.8B-SFT 之上进一步对齐。InternLM2-Chat-1.8B 表现出更好的指令跟随、聊天体验和函数调用推荐下游应用程序使用

  • InternLM2-Chat-1.8B-SFT:在 InternLM2-1.8B 上进行监督微调 (SFT) 后得到的对话模型。


在 FP16 精度模式下,InternLM2-1.8B 仅需 4GB 显存的笔记本显卡即可顺畅运行。拥有 8GB 显存的消费级显卡,即可轻松进行 1.8B 模型的微调工作。如此低的硬件门槛,非常适合初学者使用,以深入了解和掌握大模型的全链路。


GitHub 项目主页:

https://github.com/InternLM/InternLM


Hugging Face 模型主页:

https://huggingface.co/internlm/


在社区中,InternLM2-1.8B 模型也因其在角色扮演任务上的出色表现而受到大家的广泛关注,许多社区成员已成功基于 InternLM2-1.8B 模型开发出多样的角色扮演聊天应用。


为了满足社区对此类应用的浓厚兴趣,InternLM 大模型角色扮演兴趣小组(又称 InternLM RolePlay SIG)正式成立,该兴趣小组由社区同学主导发起,致力于挖掘各类小说、动漫、影视方向的人物,探索语言模型在角色扮演方面的极限边界,目前已经有了多项有趣的成果!


小组日常:

  • 一起学习大模型角色扮演相关的经典论文

  • 训练和完善知名 IP 中的角色模型

  • 将论文知识和实践经验作为 arxiv 文章进行产出


InternLM 社区将为兴趣小组提供全方位支持,包括但不限于精美证书、算力资源、上海 AI 实验室的内推机会,以奖励突出贡献的成员。


当然不仅限于角色扮演模型,基于 InternLM 开发任何应用都将得到社区的广泛支持。欢迎大家添加浦语小助手微信,加入 InternLM 社区,与我们一起在探索和学习的旅程上不断前行。



一览基于 InternLM2-1.8B

 角色扮演聊天语言模型


Chat-嬛嬛



Chat-甄嬛是利用《甄嬛传》剧本中所有关于甄嬛的台词和语句,基于 InternLM2-chat-1.8B 进行的全量微调得到的模仿甄嬛语气的聊天语言模型。


Chat-甄嬛,实现以《甄嬛传》为切入点,打造一套基于小说、剧本的个性化 AI 微调大模型完整流程,通过提供任一小说、剧本,指定人物角色,运行本项目完整流程,让每一位用户都基于心仪的小说、剧本打造一个属于自己的、契合角色人设、具备高度智能的个性化 AI。


应用地址:

https://openxlab.org.cn/apps/detail/BYCJS/Chat_huanhuan

模型地址:

https://openxlab.org.cn/models/detail/BYCJS/huanhuan-chat-internlm2-1_8b

GitHub 项目链接:

https://github.com/KMnO4-zx/xlab-huanhuan


Mini-Horo-巧耳



InternLM2-Chat-1.8B 模型拥有极强的对话风格模仿能力。基于这种独特优势,Mini-Horo-巧耳(下文称 Mini-赫萝) 利用 QLoRA 微调得到了动漫角色贤狼赫萝的聊天语言模型。


Mini-赫萝尝试结合了小说文本、动漫对话等多种语料,为语言模型微调提供了独具特色的模式。确认提取的角色之后,该模型在微调任务中会创造对应的角色语言辅助规则,对数据进行针对性过滤。Mini-赫萝 在部署阶段更是融合 Langchain 技术,进一步提升了模型的角色代入能力。


综合而言,Mini-赫萝基于 InternLM2-Chat-1.8B 模型,在低成本、低语料、低部署条件的约束之下,从角色提取、数据制备、模型微调再到应用部署,为动漫角色扮演 LLM 提供了可行的解决方案。


应用地址:

https://openxlab.org.cn/apps/detail/SaaRaaS/Mini-Horo

模型地址:

https://openxlab.org.cn/models/detail/SaaRaaS/Horowag_Mini

GitHub 项目链接:

https://github.com/SaaRaaS-1300/InternLM_openNotebook


八戒-Chat



八戒-Chat 是利用《西游记》剧本中所有关于猪八戒的台词和语句,以及 llm api 生成的相关问题结果,基于InternLM-Chat-1.8b 全量微调得到的模仿猪八戒语气的聊天语言模型。


作为 Roleplay-with-XiYou 子项目之一,八戒-Chat-1.8b 能够以较低的训练成本达到不错的角色模仿能力,同时低部署条件能够为后续接入 LLM chatroom 降低算力门槛。


在 InternLM2-chat-1.8b 的加持下,用户只需提供他们心仪的文学作品或剧本,就能低成本地去微调属于他们自己的角色,并与自己所创造的角色对话,甚至可以将其接入 chatroom 与身处不同时空、不同小说的角色来一场角色大乱斗,不知道《三国演义》中的诸葛亮会给鲁迅送一件什么样的礼物呢?


应用地址:

https://openxlab.org.cn/apps/detail/JimmyMa99/BaJie-Chat

模型地址:

https://openxlab.org.cn/models/detail/JimmyMa99/BaJie-Chat-1.8b

GitHub 项目链接:

https://github.com/JimmyMa99/Roleplay-with-XiYou

https://github.com/JimmyMa99/BaJie-Chat




InternLM2-1.8B 相关模型下载链接


Hugging Face

InternLM2-1.8B:

https://huggingface.co/internlm/internlm2-1_8b

InternLM2-Chat-1.8B-SFT:

https://huggingface.co/internlm/internlm2-chat-1_8b-sft

InternLM2-Chat-1.8B:

https://huggingface.co/internlm/internlm2-chat-1_8b


MedelScope

InternLM2-1.8B:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-1_8b/summary

InternLM2-Chat-1.8B-SFT:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b-sft/summary

InternLM2-Chat-1.8B:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2-chat-1_8b/summary


OpenXLab

InternLM2-1.8B:

https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-base-1.8b

InternLM2-Chat-1.8B-SFT:

https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-chat-1.8b-sft

InternLM2-Chat-1.8B:

https://openxlab.org.cn/models/detail/OpenLMLab/internlm2-chat-1.8b



与多个大模型同时对话,解锁AI聊天新玩法!

2024-02-02

InternLM2智能体能力揭秘!使用攻略全公开,带你开启无限可能

2024-02-01

大模型评测体系司南OpenCompass2.0发布,年度大模型榜单揭晓,司南合作伙伴计划启动

2024-01-30





点击下方“阅读原文”直达 InternLM 项目主页,觉得好用,欢迎点亮小星星~

继续滑动看下一个
OpenMMLab
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存